📝 Резюме · 📄 Оригинал (3.7 KB)
https://drlou.substack.com/p/human-negligence-killed-170-schoolgirls

Пересказ: Human negligence killed 170+ schoolgirls in Iran — not an 'AI problem'

Источник: https://drlou.substack.com/p/human-negligence-killed-170-schoolgirls

Др. Лупис разоблачает попытку замаскировать военные ошибки в войне Трампа с Ираном как «проблему AI». На самом деле, убийство более 170 школьниц произошло из-за человеческой халатности — невежества и преступного пренебрежения, а не из-за недостатков искусственного интеллекта.


Главный тезис: Ложь о роли AI

Критический вывод: AI стал удобным козлом отпущения для скрытия человеческой некомпетентности, безрассудства и пренебрежения.

Эта история демонстрирует:

  • Создание слоя лжи, где AI становится исключением для человеческой халатности
  • Попытка превратить грубый политический провал Трампа, исполнительной власти и Конгресса в технологическую проблему
  • Именно эта манипуляция доказывает, почему необходимо критическое внимание к тому, как война используется и как она оправдывается

Как произошла трагедия: Kill Chain и AI

Сокращение времени решения

Военные пытались сократить время в "kill chain" (цепи уничтожения) путём:

  • Увеличения зависимости от AI модели
  • Уменьшения роли человеческого взаимодействия и принятия решений

История военной терминологии

  • 1990-е: Воздушные силы разработали аббревиатуру F2T2EA — Find, Fix, Track, Target, Engage, Assess (Найти, Зафиксировать, Отслеживать, Наметить цель, Поражить, Оценить)
  • Тренд: Каждое поколение военной технологии продавалось с обещанием сокращения kill chain — за исключением растущих аббревиатур

Конкретная ошибка: Устаревшая разведка

Школа, которую поразили

  • Месторасположение: Школа находилась рядом с объектом Исламского революционного корпуса охраны (IRGC)
  • Проблема: Школа была разделена с зданиями IRGC на какое-то время
  • Причина удара: Школа была поражена вероятно из-за устаревшей разведданных, которые никогда не обновлялись

Это — человеческая халатность, а не AI ошибка.


Система военного AI: Palantir, а не Claude

Историческое развитие системы

  • Google Maven Project: После отказа Google от контракта Maven в 2019 году контракт перехватила Palantir
  • Scarlet Dragon Exercise (2020): XVIII Airborne Corps начал тестирование системы в виде табуэрных военных игр в подвале Fort Bragg
  • Результат: Разработана Palantir's Maven Smart System — платформа для создания "target packages" (целевых пакетов) в Иране

Критическое уточнение: Это был Palantir's Maven, а не Claude, который используется для создания целевых пакетов в Иране.


Истинная причина смертей: Человеческий отказ обновить данные

Главный вывод Луписа:

Смерть 170+ школьниц произошла не из-за AI-индуцированного события или "AI проблемы", а из-за:

  • Человеческого отказа обновить широкодоступные данные
  • Человеческой нежелания сделать то, что могло быть сделано просто — проверить Google Maps

Это преступная халатность на уровне человеческого управления.


AI не является виновником

Что такое AI на самом деле

Несмотря на продолжающиеся и развивающиеся галлюцинации человека о AI:

  • AI не является сознательным и не будет в ближайшее время
  • Истории о людях, "влюбляющихся" в AI — откровенный абсурд
  • Способность вести "разговор" с AI — это одно дело
  • Думать, что это "друг" — может указывать на потребность в психической помощи

Суть AI технологии

Даже более продвинутый AI, способный:

  • Вести интерактивный и "сочувствующий" разговор с человеком
  • Остаётся лишь результатом массивной LLM корреляционной модели с продвинутыми алгоритмическими контролями
  • AI не является человеческим
  • AI не "мыслит" и не является самосознающим — это компьютер

Критическое требование: AI не для автономных операций

Правило использования AI в войне

AI абсолютно не должна использоваться для "автономных" военных действий, особенно в условиях войны.

Необходимость человеческого контроля

  • Высоко компетентные и хорошо обученные люди должны оставаться активной частью системы
  • Люди должны оставаться в kill chain

Анализ ошибок: Кто виноват

Возникающая ошибка в убийстве 170 школьниц произошла потому, что:

  1. Человек потерпел неудачу в обновлении открыто и публично доступных карт
  2. Человек потерпел неудачу в сборе необходимых актуальных данных
  3. Claude имел абсолютно никакого отношения к этому

Вся ответственность лежит на человеческом управлении и военном руководстве, которое игнорировало простейшие проверки данных.


Контекст войны: Война Трампа по выбору

Эта трагедия произошла в контексте:

  • Войны Трампа "по выбору" с Ираном — без стратегии, целей или плана
  • Использование войны как инструмента отвлечения от расширяющегося скандала Эпштейна
  • Беззаботное отношение к жизни гражданских лиц ради неясных целей и финансовых интересов в Персидском заливе

Убийство 170 школьниц — это не только трагическая потеря жизней, но и индикатор глубокой политической и моральной несостоятельности администрации Трампа.